情感识别技术使计算机能够将人类情感状态分类为离散类别。但是,即使在短时间内,情绪也可能波动,而不是保持稳定状态。由于其3-D拓扑结构,也很难全面使用EEG空间分布。为了解决上述问题,我们在本研究中提出了一个本地时间空间模式学习图表网络(LTS-GAT)。在LTS-GAT中,使用划分和串扰方案来检查基于图形注意机制的脑电图模式的时间和空间维度的局部信息。添加了动力域歧视器,以提高针对脑电图统计数据的个体间变化的鲁棒性,以学习不同参与者的鲁棒性脑电图特征表示。我们在两个公共数据集上评估了LTS-GAT,用于在个人依赖和独立范式下进行情感计算研究。与其他现有主流方法相比,LTS-GAT模型的有效性被证明。此外,使用可视化方法来说明不同大脑区域和情绪识别的关系。同时,还对不同时间段的权重进行了可视化,以研究情绪稀疏问题。
translated by 谷歌翻译
时间序列数据出现在各种应用程序中,例如智能运输和环境监测。时间序列分析的基本问题之一是时间序列预测。尽管最近的深度时间序列预测方法取得了成功,但它们仍需要足够的历史价值观察才能进行准确的预测。换句话说,输出长度(或预测范围)与输入和输出长度之和的比率应足够低(例如,0.3)。随着比率的增加(例如,到0.8),预测准确性的不确定性显着增加。在本文中,我们从理论和经验上都表明,通过将相关时间序列检索作为参考文献可以有效地降低不确定性。在理论分析中,我们首先量化不确定性,并显示其与平方误差(MSE)的连接。然后,我们证明,带有参考的模型比没有参考的模型更容易学习,因为检索到的参考可能会降低不确定性。为了凭经验证明基于检索的时间序列预测模型的有效性,我们引入了一种简单而有效的两阶段方法,称为“保留”,该方法由关系检索和内容合成组成。我们还表明,可以轻松地适应时空时间序列和时间序列插补设置。最后,我们评估了现实世界数据集上的延迟,以证明其有效性。
translated by 谷歌翻译
变更检测是长期地球观察任务的重要工具。它将双向图像作为输入,并预测发生变化的地方。与其他密集的预测任务不同,变更检测的有意义的考虑因素是双向特征之间的相互作用。通过这种动机,在本文中,我们提出了一种新型的通用变化检测体系结构Metachanger,其中包括特征提取器中的一系列替代相互作用层。为了验证Metachanger的有效性,我们提出了两个衍生模型,即Changerad和Changerex,具有简单的交互策略:聚合 - 分布(AD)和“ Exchange”。 AD是从某些复杂的交互方法中抽象的,“ Exchange”是通过交换Bi-stormoral特征的完全参数\和无计算操作。此外,为了更好地对齐双期特征,我们提出了一个流动双对齐融合(FDAF)模块,该模块允许交互式比对和特征融合。至关重要的是,我们观察到改变器系列模型在不同量表变更检测数据集上实现竞争性能。此外,我们提议的张冠军和Changerex可以作为未来Metachanger Design的首发基线。
translated by 谷歌翻译
混乱环境中的机器人操纵通常需要多个对象的复杂和顺序重排,以实现目标对象的所需重新配置。由于在这种情况下涉及复杂的身体互动,基于重新安排的操作仍然仅限于一小部分任务,并且尤其容易受到物理不确定性和感知噪声的影响。本文提出了一个计划框架,该框架利用了基于抽样的计划方法的效率,并通过动态控制计划范围来关闭操作循环。我们的方法交织了计划和执行,以逐步实现操纵目标,同时纠正过程中的任何错误或路径偏差。同时,我们的框架允许在不需要明确的目标配置的情况下定义操纵目标,从而使机器人能够灵活地与所有对象进行交互以促进对目标的操纵。通过在模拟和真实机器人中进行广泛的实验,我们在混乱的环境中评估了三个操纵任务的框架:抓握,重新安置和分类。与两种基线方法相比,我们表明我们的框架可以显着提高计划效率,对身体不确定性的鲁棒性以及在有限时间预算下的任务成功率。
translated by 谷歌翻译
单发神经架构搜索(NAS)的算法已被广泛用于减少计算消耗。但是,由于共享权重的子网之间的干扰,从这些算法训练的超级网络中继承的子网在精度排名中的一致性较差。为了解决这个问题,我们提出了一个从一声NAS到少数NAS的逐步培训超网络。在培训方案中,我们首先以一种单发的方式训练超级网络,然后通过将它们拆分为多subnetnet并逐渐训练超级网络。最后,我们的方法在CVPR2022中排名第四,第三轻量化NAS挑战赛1。我们的代码可在https://github.com/liujiawei23333/cvpr2022-nas-competition-track-1-4tholdoluty获得。
translated by 谷歌翻译
象征性推理,基于规则的符号操作,是人类智慧的标志。然而,基于规则的系统的成功有限与基于学习的系统在外面的正式域之外的竞争中,例如自动定理证明。我们假设这是由于过去尝试中的规则的手动构建。在这项工作中,我们询问我们如何构建基于规则的系统,可以推理自然语言输入,但没有手动构建规则。我们提出了Metaqnl,这是一种“准自然”语言,可以表达正式逻辑和自然语言句子,并梅多斯诱惑,一种学习算法,它从训练数据组成的训练和答案,有或没有中间推理步骤。我们的方法在多个推理基准上实现了最先进的准确性;它学习具有更少数据的紧凑型号,不仅可以答案,而且产生答案。此外,对现实世界的形态学分析基准测试的实验表明,我们可以处理噪音和歧义。代码将在https://github.com/princeton-vl/metaqnl发布。
translated by 谷歌翻译
脸部混淆(模糊,镶嵌等)已被证明对隐私保护有效;然而,对象识别研究通常假设访问完整的,无刺激的图像。在本文中,我们探讨了面部混淆对流行的Imagenet挑战视觉识别基准的影响。 ImageNet挑战中的大多数类别不是人类类别。但是,许多偶然的人出现在图像中,他们的隐私是一个问题。我们首先注释数据集中的面孔。然后,我们证明面部混淆对识别模型的准确性的影响最小。具体而言,我们在混淆图像上基准了多个深层神经网络,并观察到总体识别精度仅略有下降(<= 1.0%)。此外,我们尝试将学习转移到4个下游任务(对象识别,场景识别,面部属性分类和对象检测),并表明在混淆图像上学习的功能同样可以传递。我们的工作证明了隐私感知视觉识别的可行性,改善了高度使用的Imagenet挑战基准,并为将来的视觉数据集提出了重要的途径。数据和代码可从https://github.com/princetonvisualai/imagenet-face-obfuscation获得。
translated by 谷歌翻译
有效的探索仍然是强化学习中有挑战性的问题,特别是对于来自环境的外在奖励稀疏甚至完全忽视的任务。基于内在动机的重要进展显示了在简单环境中的有希望的结果,但通常会在具有多式联运和随机动力学的环境中陷入困境。在这项工作中,我们提出了一种基于条件变分推理的变分动力模型来模拟多模和随机性。通过在当前状态,动作和潜在变量的条件下产生下一个状态预测,我们考虑作为条件生成过程的环境状态动作转换,这提供了更好地了解动态并在勘探中引发更好的性能。我们派生了环境过渡的负面日志可能性的上限,并使用这样一个上限作为勘探的内在奖励,这使得代理通过自我监督的探索来学习技能,而无需观察外在奖励。我们在基于图像的仿真任务和真正的机器人操纵任务中评估所提出的方法。我们的方法优于若干基于最先进的环境模型的勘探方法。
translated by 谷歌翻译
This work introduces a novel convolutional network architecture for the task of human pose estimation. Features are processed across all scales and consolidated to best capture the various spatial relationships associated with the body. We show how repeated bottom-up, top-down processing used in conjunction with intermediate supervision is critical to improving the performance of the network. We refer to the architecture as a "stacked hourglass" network based on the successive steps of pooling and upsampling that are done to produce a final set of predictions. State-of-the-art results are achieved on the FLIC and MPII benchmarks outcompeting all recent methods.
translated by 谷歌翻译
This work focuses on unsupervised representation learning in person re-identification (ReID). Recent self-supervised contrastive learning methods learn invariance by maximizing the representation similarity between two augmented views of a same image. However, traditional data augmentation may bring to the fore undesirable distortions on identity features, which is not always favorable in id-sensitive ReID tasks. In this paper, we propose to replace traditional data augmentation with a generative adversarial network (GAN) that is targeted to generate augmented views for contrastive learning. A 3D mesh guided person image generator is proposed to disentangle a person image into id-related and id-unrelated features. Deviating from previous GAN-based ReID methods that only work in id-unrelated space (pose and camera style), we conduct GAN-based augmentation on both id-unrelated and id-related features. We further propose specific contrastive losses to help our network learn invariance from id-unrelated and id-related augmentations. By jointly training the generative and the contrastive modules, our method achieves new state-of-the-art unsupervised person ReID performance on mainstream large-scale benchmarks.
translated by 谷歌翻译